Mạng nơ ron sâu là gì? Các nghiên cứu khoa học liên quan

Mạng nơ-ron sâu là mô hình trí tuệ nhân tạo với nhiều lớp nơ-ron liên kết, có khả năng tự động học đặc trưng và xử lý dữ liệu phức tạp. Nó được xem là nền tảng của học sâu, đóng vai trò quan trọng trong nhận dạng hình ảnh, ngôn ngữ tự nhiên và nhiều ứng dụng khoa học khác.

Giới thiệu về mạng nơ-ron sâu

Mạng nơ-ron sâu (Deep Neural Networks, viết tắt DNNs) là một trong những công cụ cốt lõi của học sâu, một nhánh quan trọng của trí tuệ nhân tạo. Ý tưởng chính của DNN là sử dụng nhiều lớp nơ-ron nhân tạo kết nối liên tiếp để xử lý và biến đổi dữ liệu từ dạng thô thành dạng biểu diễn giàu đặc trưng hơn. Khác với mạng nơ-ron nông truyền thống chỉ có một hoặc hai lớp ẩn, các mạng nơ-ron sâu có thể chứa hàng chục, thậm chí hàng trăm lớp, giúp mô hình hóa mối quan hệ phi tuyến phức tạp giữa dữ liệu đầu vào và đầu ra.

Mạng nơ-ron sâu hoạt động theo nguyên lý mô phỏng một phần cách bộ não con người xử lý thông tin. Mỗi nơ-ron nhân tạo đóng vai trò như một đơn vị tính toán đơn giản, nhưng khi kết hợp hàng triệu nơ-ron theo cấu trúc nhiều lớp, hệ thống có thể học được các mẫu phức tạp trong dữ liệu. Đây là lý do vì sao DNN đã trở thành nền tảng cho nhiều bước tiến quan trọng trong trí tuệ nhân tạo hiện đại như nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên hay dự đoán dữ liệu lớn.

Đặc điểm nổi bật của mạng nơ-ron sâu nằm ở khả năng học biểu diễn đặc trưng tự động, tức là mô hình có thể tự tìm ra các yếu tố quan trọng trong dữ liệu mà không cần con người lập trình thủ công. Ví dụ, trong bài toán nhận diện khuôn mặt, các lớp đầu tiên học cách phát hiện cạnh hoặc góc, các lớp tiếp theo học mắt, mũi, miệng, và lớp cuối cùng ghép chúng lại thành nhận dạng khuôn mặt hoàn chỉnh. Cơ chế phân cấp này giúp DNN giải quyết các bài toán phức tạp mà những thuật toán truyền thống gặp khó khăn.

Cấu trúc cơ bản của mạng nơ-ron sâu

Một mạng nơ-ron sâu tiêu chuẩn thường được chia thành ba loại lớp chính: lớp đầu vào, lớp ẩn và lớp đầu ra. Mỗi loại lớp có vai trò riêng biệt trong quá trình xử lý dữ liệu, đồng thời liên kết chặt chẽ với nhau để tạo nên toàn bộ kiến trúc.

Lớp đầu vào là nơi dữ liệu thô được đưa vào hệ thống. Tùy thuộc vào bài toán, dữ liệu có thể ở dạng số, văn bản, hình ảnh hoặc âm thanh. Ví dụ, trong nhận dạng chữ viết tay, lớp đầu vào có thể chứa ma trận số đại diện cho các điểm ảnh. Các nơ-ron tại lớp này không thực hiện biến đổi phức tạp mà chỉ truyền dữ liệu sang các lớp tiếp theo.

Lớp ẩn là thành phần quan trọng nhất và cũng chính là điểm làm nên sự "sâu" của DNN. Mỗi lớp ẩn gồm nhiều nơ-ron, thực hiện phép tính tuyến tính kết hợp với hàm kích hoạt phi tuyến. Khi xếp chồng nhiều lớp ẩn, mô hình có khả năng học các biểu diễn dữ liệu ngày càng trừu tượng và phức tạp. Độ sâu của mạng quyết định mức độ phức tạp mà mô hình có thể học được.

Lớp đầu ra nhận thông tin từ lớp ẩn cuối cùng để đưa ra kết quả. Trong bài toán phân loại, lớp đầu ra thường dùng hàm Softmax để chuyển đổi thành xác suất cho từng nhãn. Trong bài toán hồi quy, lớp đầu ra có thể chỉ là một giá trị số duy nhất.

Loại lớp Vai trò Ví dụ
Lớp đầu vào Tiếp nhận dữ liệu thô Ảnh pixel, văn bản
Lớp ẩn Trích xuất và biểu diễn đặc trưng Phát hiện cạnh, đường cong
Lớp đầu ra Tạo dự đoán cuối cùng Xác suất phân loại

Nguyên lý hoạt động

Nguyên lý cơ bản của một nơ-ron nhân tạo trong mạng nơ-ron sâu là thực hiện phép tính tuyến tính trên đầu vào, cộng thêm một hệ số bù (bias), sau đó áp dụng một hàm kích hoạt phi tuyến để tạo ra đầu ra. Công thức tổng quát có dạng:

y=f(i=1nwixi+b) y = f\left(\sum_{i=1}^{n} w_i x_i + b\right)

Trong đó, xix_i là đầu vào, wiw_i là trọng số kết nối, bb là hệ số bù và ff là hàm kích hoạt. Việc điều chỉnh trọng số và hệ số bù qua quá trình huấn luyện là cốt lõi để mạng nơ-ron học được từ dữ liệu.

Để minh họa rõ hơn, có thể hình dung mỗi nơ-ron giống như một bộ lọc thông tin. Nếu trọng số gán cho một đặc trưng lớn, nơ-ron sẽ coi đặc trưng đó quan trọng. Ngược lại, nếu trọng số gần bằng không, đặc trưng tương ứng hầu như bị bỏ qua. Quá trình huấn luyện giúp nơ-ron tự động điều chỉnh trọng số nhằm nhấn mạnh các đặc trưng hữu ích và loại bỏ yếu tố nhiễu.

Ví dụ, trong một bài toán phân loại ảnh mèo và chó:

  • Các lớp đầu có thể học đặc trưng về đường viền và hình khối.
  • Các lớp trung gian có thể học đặc trưng về tai nhọn, mõm dài hay bộ lông.
  • Các lớp cuối cùng kết hợp các đặc trưng này để đưa ra kết luận: mèo hay chó.

Hàm kích hoạt

Hàm kích hoạt đóng vai trò quan trọng trong mạng nơ-ron sâu. Nếu không có hàm kích hoạt, toàn bộ mạng sẽ chỉ là một mô hình tuyến tính, không thể học được các mối quan hệ phi tuyến phức tạp. Việc lựa chọn hàm kích hoạt ảnh hưởng trực tiếp đến hiệu quả học tập của mô hình.

Một số hàm kích hoạt phổ biến:

  • Sigmoid: nén đầu ra về khoảng (0,1). Phù hợp với mô hình nhị phân nhưng có hạn chế gây hiện tượng bão hòa gradient.
  • Tanh: đưa giá trị về khoảng (-1,1). Giúp dữ liệu cân bằng hơn so với sigmoid nhưng vẫn gặp vấn đề tương tự khi gradient nhỏ.
  • ReLU: định nghĩa f(x)=max(0,x)f(x) = \max(0, x). Đây là lựa chọn phổ biến nhất vì tính đơn giản và hiệu quả, đặc biệt trong các mạng nơ-ron sâu với nhiều lớp.

Ngoài ra, còn có nhiều biến thể khác của ReLU như Leaky ReLU, Parametric ReLU (PReLU), hoặc GELU, nhằm khắc phục hạn chế như hiện tượng "chết nơ-ron" khi giá trị đầu vào luôn âm.

Bảng dưới đây so sánh một số hàm kích hoạt:

Hàm kích hoạt Miền giá trị đầu ra Ưu điểm Nhược điểm
Sigmoid (0,1) Dễ diễn giải, phù hợp cho nhị phân Bão hòa gradient, chậm huấn luyện
Tanh (-1,1) Dữ liệu cân bằng quanh 0 Vẫn gặp bão hòa gradient
ReLU [0, ∞) Hiệu quả tính toán, giảm hiện tượng bão hòa Chết nơ-ron nếu đầu vào âm liên tục

Lan truyền tiến và lan truyền ngược

Quá trình huấn luyện mạng nơ-ron sâu dựa vào hai giai đoạn quan trọng: lan truyền tiến (forward propagation) và lan truyền ngược (backpropagation). Đây là cơ chế cốt lõi để mô hình học từ dữ liệu và điều chỉnh trọng số nhằm giảm sai số trong dự đoán.

Lan truyền tiến diễn ra khi dữ liệu đầu vào đi qua từng lớp của mạng. Ở mỗi lớp, dữ liệu được nhân với trọng số, cộng thêm hệ số bù, rồi qua hàm kích hoạt. Kết quả của lớp này trở thành đầu vào cho lớp tiếp theo. Toàn bộ quá trình tiếp diễn cho đến lớp cuối cùng để đưa ra dự đoán. Với cấu trúc nhiều lớp, các đặc trưng đơn giản dần được kết hợp thành đặc trưng phức tạp hơn. Ví dụ, trong xử lý ảnh, mạng có thể từ cạnh và đường thẳng xây dựng thành hình dạng mắt, mũi, miệng, rồi cuối cùng là gương mặt hoàn chỉnh.

Lan truyền ngược diễn ra sau khi so sánh kết quả dự đoán với nhãn thực tế. Sai số được tính toán thông qua hàm mất mát, sau đó được truyền ngược từ đầu ra về phía đầu vào để tính đạo hàm theo quy tắc dây chuyền. Quá trình này xác định mức độ ảnh hưởng của từng trọng số đến sai số, từ đó điều chỉnh chúng thông qua thuật toán tối ưu. Lan truyền ngược giúp mạng nơ-ron học cách “phân bổ trách nhiệm” cho từng nơ-ron trong dự đoán.

Quy trình có thể tóm tắt như sau:

  1. Thực hiện lan truyền tiến để tạo đầu ra.
  2. Tính toán sai số giữa đầu ra và nhãn thật bằng hàm mất mát.
  3. Dùng đạo hàm để tính gradient của sai số theo trọng số.
  4. Cập nhật trọng số dựa trên gradient và tốc độ học.

Hàm mất mát và tối ưu hóa

Hàm mất mát (loss function) là thước đo khoảng cách giữa giá trị dự đoán và giá trị mong đợi. Tùy thuộc vào bài toán, ta chọn loại hàm mất mát khác nhau:

  • Mean Squared Error (MSE): dùng cho hồi quy, đo sai số bình phương trung bình.
  • Cross-Entropy Loss: dùng cho phân loại, đặc biệt hiệu quả khi kết hợp với Softmax.
  • Hinge Loss: thường được sử dụng trong bài toán phân loại nhị phân kiểu SVM.

Thuật toán tối ưu hóa đóng vai trò điều chỉnh trọng số để giảm hàm mất mát. Thuật toán phổ biến nhất là Gradient Descent (GD), trong đó trọng số được cập nhật theo hướng ngược lại của gradient. Biến thể của nó, Stochastic Gradient Descent (SGD), sử dụng từng mẫu hoặc một nhóm nhỏ mẫu (mini-batch) để cập nhật nhanh và tiết kiệm chi phí tính toán.

Nhằm cải thiện tốc độ và độ ổn định, nhiều thuật toán khác đã được phát triển:

  • Momentum: giúp tránh kẹt ở cực tiểu cục bộ bằng cách thêm quán tính cho bước cập nhật.
  • RMSProp: điều chỉnh tốc độ học theo từng tham số, giúp huấn luyện nhanh hơn.
  • Adam: kết hợp ưu điểm của Momentum và RMSProp, hiện là lựa chọn mặc định trong nhiều bài toán học sâu.

Bảng dưới so sánh một số thuật toán tối ưu:

Thuật toán Đặc điểm Ưu điểm Nhược điểm
SGD Cập nhật theo từng mẫu/mini-batch Đơn giản, dễ triển khai Chậm hội tụ
Momentum Thêm thành phần quán tính Tránh kẹt tại cực tiểu cục bộ Cần tinh chỉnh hệ số quán tính
Adam Kết hợp Momentum và RMSProp Ổn định, tốc độ cao Có thể hội tụ đến nghiệm kém tối ưu

Ứng dụng của mạng nơ-ron sâu

Mạng nơ-ron sâu hiện diện trong nhiều lĩnh vực thực tiễn và nghiên cứu. Một số ứng dụng nổi bật:

  • Thị giác máy tính: Các mô hình như CNN (Convolutional Neural Networks) đã đạt độ chính xác cao trong nhận dạng hình ảnh, phát hiện vật thể và phân đoạn ảnh y tế.
  • Xử lý ngôn ngữ tự nhiên: DNN kết hợp với kiến trúc RNN, LSTM hoặc Transformer giúp cải thiện dịch máy, tổng hợp văn bản và chatbot.
  • Âm thanh và giọng nói: Các hệ thống nhận diện giọng nói như Google Speech hay Alexa sử dụng DNN để chuyển đổi giọng nói thành văn bản.
  • Hệ thống gợi ý: Các nền tảng như Netflix, Amazon tận dụng DNN để dự đoán sở thích người dùng dựa trên hành vi.

Ứng dụng còn mở rộng sang lĩnh vực y tế, tài chính, giao thông và khoa học cơ bản, cho thấy tiềm năng gần như vô hạn.

Thách thức trong việc huấn luyện mạng nơ-ron sâu

Dù mạnh mẽ, DNN cũng đối diện nhiều khó khăn. Một trong số đó là chi phí tính toán. Việc huấn luyện mạng có hàng triệu tham số đòi hỏi phần cứng mạnh như GPU hoặc TPU, cũng như lượng dữ liệu huấn luyện lớn. Điều này tạo rào cản cho các nhóm nghiên cứu nhỏ hoặc cá nhân.

Thứ hai là hiện tượng quá khớp (overfitting). Khi dữ liệu huấn luyện không đủ hoặc không đa dạng, mạng có thể học thuộc lòng dữ liệu thay vì khái quát hóa. Kết quả là mô hình hoạt động kém trên dữ liệu mới. Các kỹ thuật như regularization, dropout, hoặc data augmentation thường được sử dụng để khắc phục vấn đề này.

Thứ ba là vấn đề giải thích (interpretability). Mạng nơ-ron sâu thường được xem như “hộp đen”, khó hiểu được cách chúng đưa ra quyết định. Đây là trở ngại lớn trong các lĩnh vực nhạy cảm như y tế hay pháp lý, nơi minh bạch là yếu tố quan trọng.

Sự phát triển của phần cứng và phần mềm hỗ trợ

Sự phát triển của phần cứng đã đóng vai trò quyết định trong thành công của DNN. GPU (Graphics Processing Unit) với khả năng xử lý song song đã trở thành công cụ không thể thiếu trong huấn luyện mô hình lớn. Ngoài GPU, Google còn phát triển TPU (Tensor Processing Unit), chuyên dụng cho các tác vụ học sâu, giúp tăng tốc đáng kể thời gian huấn luyện.

Bên cạnh phần cứng, nhiều framework phần mềm mã nguồn mở đã xuất hiện, giúp đơn giản hóa việc xây dựng và huấn luyện DNN. PyTorch nổi bật với tính linh hoạt và được cộng đồng nghiên cứu ưa chuộng. TensorFlow mạnh mẽ và tối ưu cho triển khai công nghiệp. Các thư viện này đi kèm công cụ trực quan hóa, quản lý dữ liệu, và hỗ trợ huấn luyện phân tán trên nhiều thiết bị.

Nhờ sự kết hợp giữa phần cứng và phần mềm, các thí nghiệm từng mất nhiều tuần có thể được rút ngắn chỉ còn vài giờ, mở rộng khả năng khám phá các kiến trúc mạng phức tạp hơn như Transformer hay GAN.

Kết luận

Mạng nơ-ron sâu là nền tảng của nhiều đột phá trong trí tuệ nhân tạo. Với khả năng học biểu diễn đặc trưng và xử lý dữ liệu phức tạp, DNN đã chứng minh tính ứng dụng rộng rãi từ khoa học đến công nghiệp. Tuy vậy, thách thức về tính toán, dữ liệu và khả năng giải thích vẫn còn tồn tại. Sự phát triển không ngừng của phần cứng và phần mềm hứa hẹn sẽ tiếp tục thúc đẩy mạng nơ-ron sâu lên tầm cao mới, đưa trí tuệ nhân tạo tiến gần hơn đến việc mô phỏng khả năng học tập của con người.

Tài liệu tham khảo

  1. IBM: Deep Learning
  2. Sebastian Ruder: An overview of gradient descent optimization algorithms
  3. Google AI Brain Team
  4. NVIDIA: Deep Learning & AI
  5. PyTorch Documentation
  6. TensorFlow Documentation

Các bài báo, nghiên cứu, công bố khoa học về chủ đề mạng nơ ron sâu:

Phân loại ImageNet bằng mạng nơ-ron tích chập sâu Dịch bởi AI
Communications of the ACM - Tập 60 Số 6 - Trang 84-90 - 2017
Chúng tôi đã huấn luyện một mạng nơ-ron tích chập sâu lớn để phân loại 1,2 triệu hình ảnh độ phân giải cao trong cuộc thi ImageNet LSVRC-2010 thành 1000 lớp khác nhau. Trên dữ liệu kiểm tra, chúng tôi đạt được tỷ lệ lỗi top-1 và top-5 lần lượt là 37,5% và 17,0%, điều này tốt hơn nhiều so với công nghệ tiên tiến trước đó. Mạng nơ-ron có 60 triệu tham số và 650.000 nơ-ron, bao gồm năm lớp tí...... hiện toàn bộ
#ImageNet #mạng nơ-ron tích chập sâu #phân loại hình ảnh #quy tắc dropout #hiệu suất mạng nơ-ron
Giảm Kích Thước Dữ Liệu Bằng Mạng Nơ-ron Dịch bởi AI
American Association for the Advancement of Science (AAAS) - Tập 313 Số 5786 - Trang 504-507 - 2006
Dữ liệu nhiều chiều có thể được chuyển đổi thành các mã thấp chiều bằng cách huấn luyện một mạng nơ-ron đa lớp với lớp trung tâm nhỏ để tái tạo các vector đầu vào nhiều chiều. Phương pháp giảm gradient có thể được sử dụng để tinh chỉnh các trọng số trong các mạng 'autoencoder' như vậy, nhưng điều này chỉ hoạt động tốt nếu các trọng số ban đầu gần với một giải pháp tốt. Chúng tôi mô tả một ...... hiện toàn bộ
#giảm kích thước dữ liệu #mạng nơ-ron #autoencoder #phân tích thành phần chính #học sâu #khởi tạo trọng số
Mạng Nơ-ron Tích Chập Sâu và Nơ-ron Tái Kết Nối LSTM cho Nhận Diện Hoạt Động Đeo Được Đa Mô Đun Dịch bởi AI
Sensors - Tập 16 Số 1 - Trang 115
Nhận diện hoạt động con người (HAR) thường được giải quyết bằng cách sử dụng các đặc trưng kỹ thuật được thu thập thông qua các quy trình heuristics. Nghiên cứu hiện tại cho thấy rằng các mạng nơ-ron tích chập sâu (CNN) rất phù hợp để tự động hóa quá trình trích xuất đặc trưng từ các dữ liệu cảm biến thô. Tuy nhiên, các hoạt động của con người bao gồm các chuỗi chuyển động phức tạp, và việ...... hiện toàn bộ
#Nhận diện hoạt động con người #mạng nơ-ron tích chập sâu #mạng nơ-ron hồi tiếp LSTM #cảm biến đeo được #xử lý đa mô đun
Phân loại COVID-19 trong hình ảnh X-quang ngực bằng mạng nơ-ron tích chập sâu DeTraC Dịch bởi AI
Springer Science and Business Media LLC - - 2021
Tóm tắtHình ảnh X-quang ngực là kỹ thuật chẩn đoán hình ảnh đầu tiên đóng vai trò quan trọng trong chẩn đoán bệnh COVID-19. Nhờ vào sự sẵn có cao của các tập dữ liệu hình ảnh được chú thích quy mô lớn, đã đạt được nhiều thành công lớn trong việc sử dụng mạng nơ-ron tích chập (CNN) cho nhận diện và phân loại hình ảnh. Tuy nhiên, do sự hạn ...... hiện toàn bộ
#COVID-19 #X-quang ngực #mạng nơ-ron tích chập sâu #DeTraC #học chuyển giao
Dự Đoán Tải Ngắn Hạn Dựa Trên Mạng Nơ-ron Sâu Phía Cầu Dịch bởi AI
Energies - Tập 10 Số 1 - Trang 3
Trong lưới điện thông minh, một trong những lĩnh vực nghiên cứu quan trọng nhất là dự đoán tải; nó bao gồm từ các phân tích chuỗi thời gian truyền thống đến các phương pháp học máy gần đây và chủ yếu tập trung vào việc dự đoán tiêu thụ điện tích hợp. Tuy nhiên, tầm quan trọng của quản lý năng lượng phía cầu, bao gồm dự đoán tải cá nhân, đang trở nên ngày càng quan trọng. Trong bài báo này,...... hiện toàn bộ
Chiết xuất Các Thủy Vực Đô Thị Từ Hình Ảnh Viễn Thám Độ Phân Giải Cao Sử Dụng Học Sâu Dịch bởi AI
MDPI AG - Tập 10 Số 5 - Trang 585
Thông tin chính xác về nước mặt đô thị là rất quan trọng để đánh giá vai trò của nó trong các dịch vụ hệ sinh thái đô thị trong bối cảnh tồn tại của con người và biến đổi khí hậu. Việc chiết xuất chính xác các thủy vực đô thị từ hình ảnh là có ý nghĩa lớn đối với quy hoạch đô thị và phát triển kinh tế - xã hội. Trong bài báo này, một kiến trúc học sâu mới được đề xuất cho việc chiết xuất c...... hiện toàn bộ
#viễn thám #chiết xuất nước #học sâu #mạng nơ-ron tích chập #phân đoạn hình ảnh
Cách tiếp cận học sâu để thu được các khu vực lọc hợp tác Dịch bởi AI
Neural Computing and Applications - - 2022
Tóm tắtTrong bối cảnh các hệ thống gợi ý dựa trên lọc hợp tác (CF), việc thu được những khu vực chính xác của các mục trong bộ dữ liệu là rất quan trọng. Ngoài những gợi ý cá nhân cụ thể, việc biết các hàng xóm này là điều cơ bản để thêm các yếu tố phân biệt vào các gợi ý, chẳng hạn như khả năng giải thích, phát hiện tấn công shilling, hình dung quan hệ giữa các mụ...... hiện toàn bộ
#lọc hợp tác #học sâu #khu vực gợi ý #mạng nơron phân loại #thuật toán K-Người hàng xóm gần nhất
Nhận dạng khuôn mặt trong video bằng mạng nơ ron tích chập
Tạp chí Khoa học và Công nghệ Việt Nam (bản B) - Tập 62 Số 1 - Trang - 2020
Deep Learning là thuật toán dựa trên một số ý tưởng từ não bộ tới việc tiếp thu nhiều tầng biểu đạt, cả cụ thể lẫn trừu tượng, qua đó làm rõ nghĩa của các loại dữ liệu. Deep Learning được ứng dụng trong nhận diện hình ảnh, nhận diện giọng nói, xử lý ngôn ngữ tự nhiên. Hiện nay rất nhiều các bài toán nhận dạng sử dụng Deep Learning, vì nó có thể giải quyết các bài toán với số lượng lớn các biến, th...... hiện toàn bộ
#mạng nơ ron học sâu #mạng nơ ron tích chập #nhận dạng khuôn mặt
Nghiên cứu ứng dụng màng chitosan-nano bạc trong bảo quản nhằm nâng cao chất lượng thanh long sau thu hoạch
Tạp chí Khoa học Trường Đại học Sư phạm Thành phố Hồ Chí Minh - Tập 14 Số 3 - Trang 47 - 2019
Dung dịch tạo màng chitosan-nano bạc sử dụng trong bảo quản thanh long ruột đỏ cho hiệu quả tốt. Chất lượng thanh long khá ổn định và thời gian tồn trữ cao hơn so với nghiệm thức đối chứng. Dung dịch chứa 1% chitosan và 7,5 mM nano bạc phối trộn theo tỉ lệ 3:1 cho kết quả tốt nhất, thanh long tồn trữ được 19 ngày ở nhiệt độ thường (26 ± ...... hiện toàn bộ
#chitosan #nano bạc #thanh long ruột đỏ
PHÁT HIỆN CHÁY RỪNG BẰNG MẠNG NƠ RON HỌC SÂU, DỰA TRÊN KHÓI VÀ LỬA THU NHẬN ĐƯỢC TỪ CAMERA GIÁM SÁT
Tạp chí khoa học và công nghệ - Tập 26 - Trang 92-99 - 2020
Mạng nơ ron học sâu được ứng dụng trong nhận diện hình ảnh, nhận diện giọng nói, xử lý ngôn ngữ tự nhiên. Hiện nay rất nhiều các bài toán nhận dạng sử dụng mạng nơ ron học sâu, vì nó có thể giải quyết các bài toán với số lượng lớn các biến, tham số kích thước đầu vào lớn với hiệu năng cũng như độ chính xác vượt trội so với các phương pháp phân lớp truyền thống, xây dựng những hệ thống thông minh v...... hiện toàn bộ
#Mạng nơ ron học sâu #mạng nơ ron tích chập #phát hiện cháy rừng
Tổng số: 129   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 10